O poder instrumental da inteligência artificial em regimes fascistas orientados por dados
A Inteligência Artificial tem duas funções principais na guerra de Israel contra Gaza: sustentar a propaganda e gerar mais alvos. Enquanto os debates sobre a aprendizagem maquínica questionam a ameaça da IA para a humanidade, os bombardeamentos assistidos por IA revelam uma nova magnitude de morte programada algoritmicamente em tempos de guerra. A filósofa Anaïs Nony argumenta que os regimes fascistas estão cada vez mais orientados por dados: as tecnologias digitais são utilizadas como ferramentas para instrumentalizar a política e produzir morte programada.
Inteligência Artificial para propaganda
No dia 1 de dezembro de 2023, as Forças de Defesa de Israel (IDF) divulgaram um mapa da Gaza transformada numa grelha de mais de 600 blocos numerados. Esses blocos seriam para ajudar os civis a saber onde estão as zonas de combate ativas. O mapa, ao qual é suposto os palestinianos acederem via QR-code entre cortes de energia e ataques aéreos, é usado para avisos de evacuação direccionada de áreas sujeitas a bombardeamentos intensos.
Os civis receberam informações através de chamadas, mensagens de texto e folhetos lançados por avião. Era suposto que essas medidas servissem como possibilidade dos palestinianos se protegerem. O mapa oferece precisão e funciona como uma ferramenta de relações públicas para moldar a opinião internacional sobre a proteção civil. Usado pela IDF como evidência dos seus esforços para minimizar as baixas civis, o mapa interativo partilhado pretende mostrar ao mundo que, para a IDF, os residentes da Faixa de Gaza não são inimigos.
Para a Human Rights Watch, essas ordens de evacuação estão a ignorar a realidade no terreno e não deveriam eliminar as protecções previstas no direito da guerra. A 5 de dezembro, o porta-voz da UNICEF, James Elder, afirmou que as ditas “zonas seguras de evacuação” são sentenças de morte e enfatizou a urgência de acabar com a narrativa de zonas seguras que fingem salvar vidas.
Neste caso, a IA é usada pelo seu poder de transmitir precisão e servir a propaganda: é implantada para tornar o método e a estratégia mais precisos em nome de escolhas dirigidas algoritmicamente.
Inteligência Artificial para gerar alvos
Uma investigação publicada a 30 de novembro por plataformas de notícias independentes, +972 Magazine e Local Call, interroga o uso mais amplo da inteligência artificial na guerra de Israel contra Gaza. Baseando-se em entrevistas com membros atuais e antigos da comunidade de inteligência israelita, a investigação revela que as unidades de inteligência da IDF transformaram-se numa “fábrica de assassinatos em massa” que opera sob o disfarce de ferramentas de inteligência estatisticamente precisas e tecnicamente avançadas.
A investigação expõe o uso de um sistema chamado “Habsora” (“O Evangelho”), que utiliza tecnologia de Inteligência Artificial para gerar quatro tipos de alvos: alvo tático, alvo subterrâneo, alvo de energia e casas familiares. Os alvos são produzidos de acordo com a probabilidade de que combatentes do Hamas estejam nas instalações. Para cada alvo, é anexado um arquivo que “estipula o número de civis que provavelmente serão mortos num determinado ataque”. Esses arquivos fornecem números e baixas calculadas, para que, quando as unidades de inteligência realizam um ataque, o exército saiba exatamente quantos civis provavelmente serão mortos.
Numa entrevista para Democracy Now, Yuval Abraham explica que o uso da IA é uma tendência que depende de software automatizado para gerar alvos com consequências de vida e morte. Enquanto havia uma rigorosa limitação dos danos colaterais no passado, esses alvos gerados por IA são sem precedentes: são feitos de automatização, dependem de tecnologias de processamento de dados alimentadas por IA, permitem um potencial dano colateral de centenas de civis e são agora produzidos “mais rápido do que o ritmo de ataques”.
Segundo o ex-chefe do Estado-Maior da IDF, Aviv Kochavi, a Direção de Alvos estabelecida em 2019 processa vastas quantidades de dados para gerar alvos acionáveis. Impulsionado por “capacidades semelhantes à matriz”, o sistema gera “100 alvos num único dia, com 50% deles sendo atacados”, enquanto no passado a unidade de inteligência produziria 50 alvos por ano. No processo crescente de alvos gerados por IA, os critérios em torno do assassinato de civis foram significativamente flexibilizados .
Inteligência Artificial para promover o extermínio
O que significa ser estatisticamente preciso aos olhos do mundo e ainda assim gerar alvos de acordo com protocolos militares que podem matar centenas de civis? Em 6 de dezembro, Malika Bilal, apresentadora do podcast Al Jazeera The Take, lançou um episódio para investigar melhor o protocolo de guerra do exército israelita e o seu uso do Evangelho, o sistema de inteligência artificial que gera alvos de bombardeio. Uma pergunta central que faz é como e quando a limitação de baixas civis mudou e quem escolheu diminuir as restrições. Malika Bilal entrevistou Marc Owen Jones, professor associado de Estudos do Médio Oriente na Universidade Hamad bin Khalifa, que afirmou que “a IA está a ser usada para selecionar pessoas para morte e destruição”. Nas palavras de Jones, quando o exército israelita treinou modelos de IA, as unidades de inteligência modelaram-nos com pleno conhecimento de que esses alvos também incluiriam civis. “Eles estão a terceirizar as vidas e o destino das pessoas face a uma tecnologia que provavelmente herdou a ideologia de ocupação e do extermínio.”
Quando os modelos de IA são treinados, isso é feito de acordo com os precedentes estabelecidos. No caso do Exército israelita, o assassinato de civis é parte do modelo. Uma característica chave da tecnologia de inteligência artificial é que ela depende dos dados recolhidos e do modelo implantado. Não apenas o uso da tecnologia de IA será tendencioso se a tecnologia aprender com dados tendenciosos (selecionando um determinado conjunto de informações enquanto descarta outros), mas o modelo de previsão e recomendações acionáveis será também tendencioso se for implantado num contexto onde a tecnologia é usada para servir e justificar uma determinada ideologia1.
No caso da guerra em Gaza sitiada, a IDF baseia-se na precisão algorítmica enquanto ignora os procedimentos de imparcialidade e responsabilidade. A chamada eficiência clínica dos seus alvos gerados por IA é retratada pelos setores de marketing político dos media mainstream como ferramentas avançadas que conferem o direito de matar em nome da sofisticação tecnológica. Enquanto a IA é geralmente promovida como tornando a guerra mais precisa, a evidência da experiência vivida em Gaza mostra que salvar vidas não faz parte do modelo. Em vez disso, “danos máximos” estão na agenda, enquanto centenas de alvos são bombardeados todos os dias.
Inteligência Artificial para descartar a responsabilidade humana
A IA é um termo que está na moda, à medida que a tecnologia avança rapidamente na maioria dos setores da sociedade. Por um lado, um grande número de artigos e conferências tem sido dedicado a conteúdo gerado por IA e chatbots. Por outro lado, o uso da IA para propaganda e assassinato em massa é uma preocupação menos visível e menos promovida.
Frequentemente, discussões críticas sobre a IA, como vistas em Web summits, , conferências de imprensa, colóquios internacionais e entrevistas, recaem em duas categorias principais. Uma destas categorias quer provar que a IA não é realmente inteligente, pelo menos não no sentido humano de produção de conhecimento. A outra apresenta a IA como uma ameaça porque a tecnologia pode superar as capacidades humanas nos campos da cognição.
Essas propostas intelectuais, embora em si mesmas sejam valiosas em alguma medida, muitas vezes omitem questionar o conjunto de valores e prioridades que moldam os modelos teóricos de sua investigação. As suas afirmações (“A IA não é uma inteligência real” ou “A IA é uma ameaça à nossa humanidade”) não reconhecem que há realidade humana em cada realidade técnica2, desde a colher que usamos para comer até ao lançamento de foguetes para matar civis. A incapacidade de apreender a realidade humana da Inteligência Artificial, os seus preconceitos e as suas características indignas, é um erro que só serve a um certo marketing político e à sua economia orientada por dados.
Além disso, essas alegações servem valores organizados em torno de ideias de inclusão e exclusão tão centrais para as ideologias supremacistas: este dado importa/este não importa, esta pessoa é humana/esta não é, esta vida importa, esta não. A exclusão é parte da recusa sistémica em reconhecer a realidade humana integral a todos os objetos e todas as pessoas. Essa posição não significa que objetos são iguais a pessoas. Mostra que essa exclusão faz parte de uma cultura hegemónica que falha em assumir a responsabilidade pela violência que produz.
O descarte da realidade humana na tecnologia é um modo estratégico de anular a responsabilidade em nome do avanço. Permite a implementação de uma nova forma de obediência orientada por algoritmos, na qual a vida dos mais pobres e vulneráveis nem mesmo é tomada em conta. . Pensar criticamente sobre a IA, a sua criação, modelagem e aplicação, bem como o seu desenvolvimento como tecnologia de previsão de comportamento, é uma responsabilidade para não deixar tal tecnologia num ponto cego apolítico.
Existe o que chamo de crítica suave da tecnologia de IA. É uma crítica neoliberal que pretende promover a obediência, impor uma agenda intelectual e destacar conceitos. Acredito que essa abordagem é perigosa, pois falha em abordar rigorosamente o estado de emergência em que a maioria das entidades vivas se encontra devido a catástrofes climáticas e ao emergir do fascismo e do totalitarismo digital à escala global. Essa crítica suave da IA concentra-se, muitas vezes, na linguagem e na supremacia da inteligência humana, em vez de questionar a responsabilidade política do uso e abuso de tal tecnologia. As críticas suaves da IA são idênticas à abordagem feminista branca dominante que seleciona um conjunto de contestações enquanto descarta outras e à abordagem ecologista burguesa que não redistribui a terra e a riqueza herdadas de que se beneficia enquanto julga como os outros se devem comportar. O que uma crítica suave à tecnologia de IA revela é uma posição comprometida, que faz o jogo da produção académica sem se apoiar radicalmente em novas ações.
Inteligência Artificial para um regime fascista orientado por dados
A Inteligência Artificial mudou profundamente desde o seu desenvolvimento inicial na década de 1950. Naquele período, a pergunta feita pelo matemático Alan Turing era: podem as máquinas gerar respostas semelhantes às humanas, equivalentes às de uma pessoa3? Décadas depois, o sistema de IA da Google, AlphaGo, derrotou o campeão mundial Lee Se-dol num programa muito televisionado, de homem vs máquina, em 2016. Enquanto o antigo jogo chinês de Go tem mais configurações possíveis do que átomos no universo observável, o computador estudou um conjunto de dados de mais de 100 mil jogos humanos para vencer o seu oponente. Nesse estágio, a IA sustentada em regras que operava como um sistema de conhecimento foi ultrapassada pela implementação da tomada de decisões além de conjuntos de regras predefinidos.
A tecnologia de IA evoluiu rapidamente desde a famosa vitória. Em 2024, a tecnologia de IA consegue desenvolver habilidades capturando dados de cada gesto, movimento e interação. O rastreamento sistemático da vida das pessoas e a opacidade dos modelos designam um novo paradigma na formação da verdade, à medida que a censura é habilitada numa nova escala. A tecnologia alimentada por IA pode promover precisão e esconder os padrões de medição e circulação de informações. Também pode produzir modelos que são opacos e difíceis de aceder. Como tal, o novo paradigma da IA exige reflexão sobre os valores sociais e conjuntos de prioridades que queremos promover, especialmente à medida que essas tecnologias são cada vez mais implantadas em tempos de guerra.
O que importa no regime da verdade promovido por ideologias fascistas é a precisão dos dados recolhidos, bem como a computação, controlo e previsão de comportamentos por meio da vigilância sistemática de dados. Os dados recolhidos são retratados como medida da verdade e funcionam para substituir a realidade significativa da experiência vivida. Como destaca a filósofa do direito,Antoinette Rouvroy, neste regime digital, o indivíduo é substituído por um conjunto de dados não significativos4. A pessoa como um indivíduo singular com memória, experiência e carne já não existe: é transformada num perfil que pode ser detetado e cujos comportamentos podem ser antecipados e prevenidos.
O regime digital de poder instrumentário é sintomático da regra de indução: esquecer a causa dos problemas, focando-se em prever mais resultados, em criar certeza total5. O regime digital da verdade visa moldar o futuro de acordo com uma trajetória que valida os dados já recolhidos. No contexto da guerra israelita de 2023-2024 contra os palestinianos, o futuro dos civis está a ser moldado de acordo com os dados recolhidos. Eles tornam-se os alvos, automaticamente. Por sua vez, os dados recolhidos validam o ataque de acordo com um modo unilateral de fazer a verdade que esvazia a responsabilidade.
Inteligência Artificial para cancelar o significado
Os ecossistemas de ferramentas e dispositivos inteligentes criam o tecido da vida quotidiana ao moldar os valores normativos dos comportamentos. No contexto do capitalismo de vigilância, a modelagem algorítmica opera para cancelar todo o significado e interrompe a confiança social. O capitalismo de vigilância é um novo poder instrumentário que depende de computação e automação para derrubar a soberania do povo 6. Tanto a um nível individual, quanto coletivo, os mecanismos de subordinação maximizam a indiferença e a conexão mediática para esvaziar sonhos e desejos para o futuro.
Formas de pensar, viver e existir dependem de uma disposição tecnológica entre as ferramentas que nos ajudam a reter informações e as ferramentas que nos ajudam a antecipar resultados futuros7. Com o desenvolvimento da IA, a mente encontra-se cercada de dispositivos inteligentes que aprendem com os nossos comportamentos, censuram certos conteúdos e promovem outros. O desenvolvimento acelerado da tecnologia de IA exige que questionemos os ecossistemas de dispositivos que moldam as nossas existências psíquicas e coletivas, incluindo a maneira como a IA está, atualmente, a desfazer formas de confiança social e a implementar a censura.
Inteligência Artificial para uma nova magnitude de morte
Em 2024, pouco mais de dois terços da população mundial estará a usar internet, enquanto, em 2020, uma em cada quatro pessoas não teve acesso a água potável segura em casa. De acordo com um relatório conjunto da Organização Mundial da Saúde (OMS) e do Fundo das Nações Unidas para a Infância (UNICEF), o progresso em água potável, saneamento e higiene é largamente insuficiente e desigual. De facto, estima-se que até 2030, “apenas 81% da população mundial terá acesso a água potável em casa, enquanto 1,6 bilhão de pessoas ainda serão privadas dela”.
O que este correlato entre redes digitais e acesso à água mostra é a distorção das prioridades internacionais em termos de responsabilidade cívica e moral. Enquanto a água atende a uma necessidade vital de primeira necessidade, assistimos ao uso de água potável para arrefecer centros de dados massivos. De acordo com o relatório ambiental do Google, publicado em 24 de julho de 2023, o gigante terá retirado 28.765 bilhões de litros de água em 2022. 98% era água potável, dois terços dos quais eram usados para arrefecer os seus centros de dados, onde está agrupado o equipamento que possibilita a gestão de sistemas de informação.
O custo energético é alarmante, o custo humano é angustiante. 75% do suprimento mundial de cobalto, material essencial para as baterias de iões de lítio dos nossos telemóveis, computadores, tablets e carros elétricos vem do leste do Congo, onde dezenas de milhões de pessoas (crianças e adultos) vivem e trabalham em condições desumanas8. Em dez anos, mais de 5 milhões de pessoas morreram devido a doenças e à desnutrição9.
Para entender a mudança na formação de regimes fascistas orientados por dados, nos quais o avanço tecnológico apoia a manipulação em massa e a desumanização, devemos entender o aumento da obediência algorítmica e do poder instrumental da IA. Em 2024, a flexibilização dos protocolos militares em nome da precisão engendrada pela IA serve uma economia global onde as leis internacionais estão a ser sequestradas ante os nossos olhos. Como tal, nós (camaradas a lutar pela liberdade no mundo todo) somos testemunhas vivas de um regime digital que tem consequências drásticas para o futuro da justiça e da solidariedade.
Uma versão mais curta deste artigo foi publicada com o título “Israel and Gaza: AI in the time of warfare” no The Mail & Guardian, 4 de fevereiro de 2024.
Artigo publicado originalmente em La Furia Umana.
1 Nony, Anaïs. “Technology of Neo-Colonial Episteme”, Philosophy Today(2019).
2 Simondon, Gilbert. Du mode d’existence des objets techniques. Paris: Aubier, 1989.
3 The Turing test is portrayed in a paper “Computing Machinery and Artificial Intelligence” where Turing would ask if a machine could win a game called “Imitation Game”.
4 Rouvroy, Antoinette, and Bernard Stiegler. “The Digital Regime of Truth: From the Algorithmic Governmentality to a New Rule of Law.” Translated by Anaïs Nony and Benoît Dillet, La Deleuziana 3 (2016): 6–29. http://www.ladeleuziana.org/ wp-content/uploads/2016/12/Rouvroy-Stiegle....
5 Shoshana Zuboff. The Age of Surveillance Capitalism. The Fight for Human Future at the New Frontier of Power. London: Profile Books, 2019, p. 396.
6 Shoshana Zuboff, The Age of Surveillance Capitalism. The Fight for Human Future at the New Frontier of Power, op. cit..
7 Stiegler, Bernard. Dans la disruption: Comment ne pas devenir fou? Paris: Éditions Les Liens qui Libèrent, 2016.
8 Divin-Luc Bikubanya, Hadassah Arian, Sara Geenen and Sarah Katz-Lavigne. “Le ‘devoir de vigilance’ dans l’approvisionnement en minerais du Congo.” Alternatives Sud, vol. 30-2023, pp. 143-152.
9 The development of new telecommunications and transportation technologies is directly linked to serious crimes described by the Rome Statutes drafted by the International Criminal Court. The enslavement or forced transfer of the population are acts committed against a civilian population with knowledge of the attack. These acts, most often perpetrated in order to create a docile workforce, are crimes against humanity under Article 7, Paragraph 1, of the Rome Statute.